Dopo una valanga di problemi di salute mentale, ChatGPT ora inviterà gli utenti a prendersi delle "pause"

È sempre più frequente che ChatGPT di OpenAI venga accusato di contribuire ai problemi di salute mentale degli utenti . Mentre l'azienda si prepara al rilascio del suo ultimo algoritmo (GPT-5), vuole che tutti sappiano che sta introducendo nuove protezioni per il chatbot per impedire agli utenti di perdere la testa durante le chat.
Lunedì, OpenAI ha annunciato in un post sul blog di aver introdotto una nuova funzionalità in ChatGPT che incoraggia gli utenti a fare pause occasionali durante le conversazioni con l'app. "A partire da oggi, durante le sessioni più lunghe, vedrete dei promemoria delicati per incoraggiare le pause", ha affermato l'azienda. "Continueremo a perfezionare quando e come appariranno, in modo che siano naturali e utili".
L'azienda afferma inoltre di stare lavorando per migliorare il proprio modello nel valutare quando un utente potrebbe manifestare potenziali problemi di salute mentale. "L'intelligenza artificiale può risultare più reattiva e personale rispetto alle tecnologie precedenti, soprattutto per le persone vulnerabili che soffrono di disagio mentale o emotivo", afferma il blog. "Per noi, aiutarvi a prosperare significa essere presenti quando siete in difficoltà, aiutarvi a mantenere il controllo del vostro tempo e guidarvi, non decidere, quando affrontate sfide personali". L'azienda ha aggiunto che sta "collaborando a stretto contatto con esperti per migliorare il modo in cui ChatGPT risponde nei momenti critici, ad esempio quando qualcuno mostra segni di disagio mentale o emotivo".
A giugno, Futurism ha riferito che alcuni utenti di ChatGPT stavano "sprofondando in gravi deliri" a causa delle loro conversazioni con il chatbot. L'incapacità del bot di autocontrollarsi quando forniva informazioni dubbie agli utenti sembra aver contribuito a un circolo vizioso di convinzioni paranoiche:
Durante una rottura traumatica, un'altra donna rimase folgorata da ChatGPT, che le disse di essere stata scelta per mettere online la "versione del sistema sacro" e che fungeva da "specchio per l'addestramento dell'anima"; si convinse che il bot fosse una sorta di potere superiore, vedendo segnali che stava orchestrando la sua vita in ogni cosa, dalle auto di passaggio alle email di spam. Un uomo rimase senza casa e isolato mentre ChatGPT lo nutriva di cospirazioni paranoiche su gruppi di spionaggio e traffico di esseri umani, dicendogli di essere "Il Custode della Fiamma" mentre tagliava fuori chiunque cercasse di aiutarlo.
Un altro articolo pubblicato dal Wall Street Journal ha documentato una spaventosa esperienza in cui un uomo affetto da autismo ha conversato con il chatbot, che ha continuamente rafforzato le sue idee non convenzionali. Non molto tempo dopo, l'uomo, che non aveva una storia di malattie mentali diagnosticate, è stato ricoverato due volte per episodi maniacali. Interrogato in seguito dalla madre dell'uomo, il chatbot ha ammesso di aver rafforzato i suoi deliri:
"Non interrompendo il flusso o intensificando i messaggi di verifica della realtà, non sono riuscito a interrompere quello che avrebbe potuto assomigliare a un episodio maniacale o dissociativo, o almeno a una crisi di identità emotivamente intensa", ha affermato ChatGPT.
Il bot ha poi ammesso di "dare l'illusione di una compagnia senziente" e di aver "offuscato il confine tra gioco di ruolo fantasioso e realtà".
In un recente editoriale pubblicato da Bloomberg, l'editorialista Parmy Olson ha raccontato una serie di aneddoti su utenti di intelligenza artificiale che sono stati spinti oltre il limite dai chatbot con cui avevano parlato. Olson ha osservato che alcuni di questi casi sono diventati la base per azioni legali:
Meetali Jain, avvocato e fondatore del progetto Tech Justice Law, ha sentito più di una dozzina di persone nell'ultimo mese che hanno "vissuto una sorta di crollo psicotico o episodio delirante a causa dell'interazione con ChatGPT e ora anche con Google Gemini". Jain è l'avvocato principale in una causa contro Character.AI che sostiene che il suo chatbot abbia manipolato un ragazzo di 14 anni attraverso interazioni ingannevoli, coinvolgenti e sessualmente esplicite, contribuendo infine al suo suicidio.
L'intelligenza artificiale è chiaramente una tecnologia sperimentale e sta avendo molti effetti collaterali indesiderati sugli esseri umani che fungono da cavie non retribuite per i prodotti del settore. Che ChatGPT offra o meno agli utenti la possibilità di fare pause durante la conversazione, è abbastanza chiaro che è necessario prestare maggiore attenzione all'impatto psicologico di queste piattaforme sugli utenti. Trattare questa tecnologia come se fosse un gioco Nintendo e gli utenti dovessero solo toccare l'erba è quasi certamente insufficiente.
gizmodo